3,402 research outputs found
Detecção de ataques por canais laterais na camada física
Today, with the advent of IoT and the resulting fragmentation of wireless technologies,
they bring not only benefits, but also concerns. Daily, several individuals
communicate with each other using various communication methods. Individuals
use a variety of devices for innocuous day-to-day activities; however, there are
some malicious individuals (dishonest agents) whose aim is to cause harm, with
the exfiltration of information being one of the biggest concerns. Since the security
of Wi-Fi communications is one of the areas of greatest investment and research
regarding Internet security, dishonest agents make use of side channels to exfiltrate
information, namely Bluetooth. Most current solutions for anomaly detection on
networks are based on analyzing frames or packets, which, inadvertently, can reveal
user behavior patterns, which they consider to be private. In addition, solutions
that focus on inspecting physical layer data typically use received signal power
(RSSI) as a distance metric and detect anomalies based on the relative position
of the network nodes, or use the spectrum values directly on models classification
without prior data processing.
This Dissertation proposes mechanisms to detect anomalies, while ensuring the privacy
of its nodes, which are based on the analysis of radio activity in the physical
layer, measuring the behavior of the network through the number of active and
inactive frequencies and the duration of periods of silence and activity. After the
extraction of properties that characterize these metrics,an exploration and study
of the data is carried out, followed by the use of the result to train One-Class
Classification models.
The models are trained with data taken from a series of interactions between a
computer, an AP, and a mobile phone in an environment with reduced noise, in
an attempt to simulate a simplified home automation scenario. Then, the models
were tested with similar data but containing a compromised node, which periodically
sent a file to a local machine via a Bluetooth connection. The data show
that, in both situations, it was possible to achieve detection accuracy rates in the
order of 75 % and 99 %.
This work ends with some ideas of resource work, namely changes in the level
of pre-processing, ideas of new tests and how to reduce the percentage of false
negatives.Hoje, com o advento da IoT e a resultante fragmentação das tecnologias sem fio,
elas trazem não apenas benefícios, mas também preocupações. Diariamente vários
indivíduos se comunicam entre si usando vários métodos de comunicação. Os
indivíduos usam uma variedade de dispositivos para atividades inócuas do dia-adia;
no entanto, existem alguns indivíduos mal-intencionados (agentes desonestos)
cujo objetivo é causar danos, sendo a exfiltração de informação uma das maiores
preocupações. Sendo a segurança das comunicações Wi-Fi uma das áreas de
maior investimento e investigação no que toca a segurança na Internet, os agentes
desonestos fazem uso de canais laterais para exfiltrar informação, nomeadamente
o Bluetooth. A maioria das soluções atuais para deteção de anomalias em redes
baseiam-se em analisar tramas ou pacotes, o que, inadvertidamente, pode revelar
padrões de comportamento dos utilizadores, que estes considerem privados. Além
disso, as soluções que se focam em inspecionar dados da camada física normalmente
usam a potência de sinal recebido (RSSI) como uma métrica de distância
e detetam anomalias baseadas na posição relativa dos nós da rede, ou usam os
valores do espetro diretamente em modelos de classificação sem prévio tratamento
de dados.
Esta Dissertação propõe mecanismos para deteção de anomalias, assegurando simultaneamente
a privacidade dos seus nós, que se baseiam na análise de atividade
rádio na camada física, medindo os comportamentos da rede através do número
de frequências ativas e inativas e a duração de períodos de silêncio e atividade.
Depois da extração de propriedades que caracterizam estas métricas, é realizada
uma exploração dos dados e um estudo das mesmas, sendo depois usadas para
treinar modelos de classificação mono-classe.
Os modelos são treinados com dados retirados de uma série de interações entre
um computador, um AP, e um telemóvel num ambiente com ruído reduzido, numa
tentativa de simular um cenário de automação doméstica simplificado. De seguida,
os modelos foram testados com dados semelhantes mas contendo um nó comprometido,
que periodicamente enviava um ficheiro para uma máquina local através
de uma ligação Bluetooth. Os dados mostram que, em ambas as situações, foi
possível atingir taxas de precisão de deteção na ordem dos 75% e 99%.
Este trabalho finaliza com algumas ideias de trabalho futuro, nomeadamente alterações
ao nível do pré-processamento, ideias de novos testes e como diminuir a
percentagem de falsos negativos.Mestrado em Engenharia de Computadores e Telemátic
Avaliação da influência dos parâmetros de ensaio no índice de fluidez de termoplásticos
O presente trabalho teve como objectivos avaliar a influência de diversas grandezas e parâmetros de ensaio no índice de fluidez de termoplásticos e calcular a incerteza associada às determinações.
Numa primeira fase, procedeu-se à identificação dos principais parâmetros que influenciam a determinação do índice de fluidez, tendo sido seleccionados a temperatura do plastómetro, o peso de carga, o diâmetro da fieira, o comprimento da medição, o tipo de corte e o número de provetes. Para avaliar a influência destes parâmetros na medição do índice de fluidez, optou-se pela realização de um planeamento de experiências, o qual foi dividido em três etapas. Para o tratamento dos resultados obtidos utilizou-se como ferramenta a análise de variância. Após a completa análise dos desenhos factoriais, verificou-se que os efeitos dos factores temperatura do plastómetro, peso de carga e diâmetro da fieira apresentam um importante significado estatístico na medição do índice de fluidez.
Na segunda fase, procedeu-se ao cálculo da incerteza associada às medições. Para tal seleccionou-se um dos métodos mais usuais, referido no Guia para a Expressão da Incerteza da Medição, conhecido como método GUM, e pela utilização da abordagem “passo a passo”. Inicialmente, foi necessária a construção de um modelo matemático para a medição do índice de fluidez que relacionasse os diferentes parâmetros utilizados. Foi estudado o comportamento de cada um dos parâmetros através da utilização de duas funções, recorrendo-se novamente à análise de variância. Através da lei de propagação das incertezas foi possível determinar a incerteza padrão combinada,e após estimativa do número de graus de liberdade, foi possível determinar o valor do coeficiente de expansão. Finalmente determinou-se a incerteza expandida da medição, relativa à determinação do índice de fluidez em volume.The present work had as main goals the evaluation of the influence of several variables and testing parameters in the flow index of thermoplastics and to determine the uncertainty associated to the measurements.
Initially, we proceeded to the identification of the main parameters that influence the determination of the flow index. The temperature of the plastometer, the load weight, the diameter of the die, the length of the measurement, the type of cut and the number of samples have been selected. To evaluate the influence of these parameters in the measurement of the melt index, it was decided to carry out a design of experiments, which was divided into three steps. Results were analyzed using as a tool the analysis of variance. After a full analysis of
factorial designs, it was found that the effects of factors temperature of the plastometer, load weight and diameter of the die showed an important statistical significance in the measurement
of the flow index.
After words we proceeded to the calculation of the measurement uncertainty. For this purpose, we selected one of the most common methods given in the “Guide to the Expression of Uncertainty in Measurement”, known as GUM, and the use of a “bottom-up” approach.
Initially, it was necessary to build a mathematical model for measuring the melt index in order to relate the different parameters in use. The behavior of each of the parameters was studied through the use of two functions, and analysis of variance was again applied. Through the law of propagation of uncertainty it has been possible to determine the combined standard uncertainty and, after estimating the number of degrees of freedom, it was possible to determine the coverage factor. Finally the expanded uncertainty of the measurements, related to the determination of melt volume rate, was determined
Multi-Agents System Approach to Industry 4.0: Enabling Collaboration Considering a Blockchain
Dissertação de Mestrado em Engenharia InformáticaThe evolution of existing technologies and the creation of new ones paved the way for a new revolution
in the industrial sector. With the introduction of the existing and new technologies in the manufacturing
environment, the industry is moving towards the fourth industrial revolution, called Industry 4.0. The
fourth industrial revolution introduces many new components like 3D printing, Internet of things, artificial
intelligence, and augmented reality. The automation of the traditional manufacturing processes and the
use of smart technology are transforming industries in a more interconnected environment, where there
is more transparent information and decentralised decisions.
The arrival of Industry 4.0 introduces industries to a new environment, where their manufacturing processes
are more evolved, more agile, and with more efficiency. The principles of Industry 4.0 rely on
the interconnection of machines, devices, sensors, and people to communicate and connect. The transparency
of information guaranties that decision makers are provided with clear and correct information
to make informed decisions and the decentralisation of decisions will create the ability for machines and
systems to make decisions on their own and to perform tasks autonomously.
Industry 4.0 is making manufacturing processes more agile and efficient, but due to the fast pace of
trends and the shift from the traditional mass production philosophy towards the mass customisation,
following the Industry 4.0 guidelines might not be enough. The mass customisation paradigm was created
from the desire that customers have in owning custom made products and services, tailor made
to their needs. The idea to perform small tweaks in a product to face the needs of a consumer group,
keeping the production costs like the ones from the mass production, without losing efficiency in the
production. This paradigm poses great challenges to the industries, since they must be able to always
have the capability to answer the demands that may arise from the preparation and production of personalised
products and services. In the meantime, organisations will try to increasingly mark its position
in the market, with competition getting less relevant and with different organisations worrying less with
their performance on an individual level and worrying more about their role in a supply chain. The need
for an improved collaboration with Industry 4.0 is the motivation for the model proposed in this work.
This model, that perceives a set of organisations as entities in a network that want to interact with each
other, is divided into two parts, the knowledge representation and the reasoning and interactions. The first part relies on the Blockchain technology to securely store and manage all the organisation transactions
and data, guaranteeing the decentralisation of information and the transparency of the transactions.
Each organisation has a public and private profile were the data is stored to allow each organisation to
evaluate the others and to allow each organisation to be evaluated by the remainder of the organisations
present in the network. Furthermore, this part of the model works as a ledger of the transactions made
between the organisations, since that every time two organisations negotiate or interact in any way, the
interaction is getting recorded. The ledger is public, meaning that every organisation in the network
can view the data stored. Nevertheless, an organisation will have the possibility, in some situations, to
keep transactions private to the organisations involved. Despite the idea behind the model is to promote
transparency and collaboration, in some selected occasions organisations might want to keep transactions
private from the other participants to have some form of competitive advantage. The knowledge
representation part also wants to provide security and trust to the organisation that their data will be safe
and tamper proof.
The second part, reasoning and interactions, uses a Multi-Agent System and has the objective to help
improve decision-making. Imagining that one organisation needs a service that can be provided by two
other organisations, also present in the network, this part of the model is going to work towards helping
the organisations choose what is the best choice, given the scenario and data available. This part of the
model is also responsible to represent every organisation present in the network and when organisations
negotiate or interact, this component is also going to handle the transaction and communicate the data
to the first part of the model.A constante evolução de tecnologias atuais e a criação de novas tecnologias criou as condições necessárias para a existência de uma nova revolução industrial. Com a evolução de dispositivos móveis e com a chegada de novas tecnologias e ferramentas que começaram a ser introduzidas em ambiente industrial,
como a impressão 3D, internet das coisas, inteligência artificial, realidade aumentada, entre outros, a industria conseguiu começar a explorar novas tecnologias e automatizar os seus processos de fabrico tradicionais, movendo as industrias para a quarta revolução industrial, conhecida por Industria 4.0.
A adoção dos princípios da Indústria 4.0 levam as indústrias a evoluir os seus processos e a ter uma maior e melhor capacidade de produção, uma vez que as mesmas se vão tornar mais ágeis e introduzir melhorias nos seus ambientes de produção. Uma dessas melhorias na questão da interoperabilidade, com máquinas, sensores, dispositivos e pessoas a comunicarem entre si. A transparência da informação vai levar a uma melhor interpretação dos dados para efetuar decisões informadas, com os sistemas a recolher cada vez mais dados e informação dos diferentes pontos do processo de manufatura.
(...
Crowd sensing and forecasting for Smart Cities
Dissertação de mestrado integrado em Engenharia InformáticaA utilização de inteligência sob forma de tecnologia no nosso dia-a-dia é uma realidade em crescimento e, portanto, devemos fazer uso da tecnologia disponível para melhorar várias áreas do nosso quotidiano. Por exemplo, a tecnologia atual permite a conceção de sensores inteligentes, mais especificamente sensores de multidão, para detetar passiva mente dispositivos como smartphones ou smartwatches através de probe requests emitidos por estes dispositivos que, por sua vez, fazem parte de um processo de comunicação que ocorre sempre que o Wi-Fi dos dispositivos está ativado. Adicionalmente, crowd sensing - uma solução de Ambient Intelligence (AmI) - é estudada hoje em dia em várias áreas com bons resultados. Portanto, esta dissertação visa investigar e utilizar sensores de multidão para capturar passivamente dados acerca da densidade de multidões, explorar as capacidades do sensor escolhido, analisar e processar os dados para obter melhores estimativas, e conceber e desenvolver modelos de Machine Learning (ML) para prever a densidade nas áreas sensorizadas. Áreas nas quais o sensor de multidão está inserido - AmI, Smart Cities, Wi-Fi Probing - são estudadas, juntamente com a análise de diferentes abordagens ao crowd sensing, assim como paradigmas e algoritmos de ML. Em seguida, é explicado como os dados foram capturados e analisados, seguido por uma experiência feita às capacidades do sensor. Além disso, é apresentado como os modelos de ML foram concebidos e otimizados. Finalmente, os resultados dos vários testes de ML são discutidos e o modelo com melhor desempenho é apresentado. A investigação e os resultados práticos abrem perspetivas importantes para a implementação deste tipo de soluções na nossa vida diária.Bringing intelligence to our everyday environments is a growing reality and therefore we should take advantage of the technology available to improve several areas of our daily life. For example, current technology allows the conception of smart scanners, more specifically crowd sensors, to passively detect devices such as smartphones or smartwatches through probe requests emitted by such devices, that, in turn, are part of a communication process that happens every time the devices’ Wi-Fi is enabled. Additionally, crowd sensing - an Ambient Intelligence (AmI) solution - is being studied nowadays in several areas with good results. Therefore, this dissertation aims to research and use crowd sensors to passively collect crowd density data, explore the capabilities of the chosen sensor, analyse and process the data to get better estimations and conceive and develop Machine Learning (ML) models to forecast the density of the sensed areas. Areas in which crowd sensing is inserted - AmI, Smart Cities, Wi-Fi probing - are studied, along with the analysis of different crowd sensing approaches and ML paradigms and algorithms. Then, it’s explained how the data was collected and analysed together with the insights obtained from it, followed by an experiment done on the crowd sensor capabilities. Moreover, it’s presented how the ML models were conceived and tuned. Finally, the results from the ML several tests are discussed and the best performing model is found. The investigation, together with practical results, opens important perspectives for the implementation of these kinds of solutions in our daily lives
Four Conditions for Research in Psychoanalysis
This article discusses the use of psychoanalysis – particularly of psychoanalytic technique based on free association – for investigations in the field of social psychology, based on the authors’ experience in a graduate program. To this end, we have attempted to produce a reflection on the conditions and the impact of the dislocation of concepts between the clinic of individual psychic suffering and empirical research involving institutions and groups. By focusing on the assertion of the primacy of the unconscious, we have tried to array the lines of approximation and distancing between clinical practice and empirical research. The basis is the discussion on the necessary conditions (outside of the therapeutic setting) for listening to the unconscious, for creating a transference bond, for the work of interpretation of the discourses of subjects and, finally, for the elaboration of unconscious contents and desires – whether by the subjects listened to in this research or by the researchers themselves in their work of theoretical elaboration
Software para gerenciamento e controle da produção de leite
TCC(graduação) - Universidade Federal de Santa Catarina. Centro Tecnológico. Ciências da Computação.A pecuária de leite é uma das atividades mais importantes no agronegócio brasileiro. Sendo praticada principalmente nas propriedades rurais pertencentes à agricultura familiar. No mercado de software brasileiro, existem alguns sistemas disponíveis para o gerenciamento da produção de leite nas propriedades rurais. Observando as más funcionalidades destes sistemas, juntamente com as necessidades dos produtores de leite, além do crescimento da informatização do meio rural. Originou-se a proposta do Ordenha Digital. Ordenha Digital é um software desenvolvido neste trabalho. Com o intuito de auxiliar os produtores de leite. Em especial os produtores da agricultura familiar, a gerenciarem a atividade
Synfeal: A Data-Driven Simulator for End-to-End Camera Localization
Collecting real-world data is often considered the bottleneck of Artificial
Intelligence, stalling the research progress in several fields, one of which is
camera localization. End-to-end camera localization methods are still
outperformed by traditional methods, and we argue that the inconsistencies
associated with the data collection techniques are restraining the potential of
end-to-end methods. Inspired by the recent data-centric paradigm, we propose a
framework that synthesizes large localization datasets based on realistic 3D
reconstructions of the real world. Our framework, termed Synfeal: Synthetic
from Real, is an open-source, data-driven simulator that synthesizes RGB images
by moving a virtual camera through a realistic 3D textured mesh, while
collecting the corresponding ground-truth camera poses. The results validate
that the training of camera localization algorithms on datasets generated by
Synfeal leads to better results when compared to datasets generated by
state-of-the-art methods. Using Synfeal, we conducted the first analysis of the
relationship between the size of the dataset and the performance of camera
localization algorithms. Results show that the performance significantly
increases with the dataset size. Our results also suggest that when a large
localization dataset with high quality is available, training from scratch
leads to better performances. Synfeal is publicly available at
https://github.com/DanielCoelho112/synfeal
- …